深度报道:AI安全与Yoshua Bengio的新动向
引言
随着人工智能(AI)技术的飞速发展,其在各个领域的应用日益广泛,从自动化写作、编程到图像和视频生成,AI正逐渐展现出超越人类智能的潜力。然而,这种快速发展也带来了对AI安全的深切关注。近日,深度学习三巨头之一的Yoshua Bengio公开了他的下一步动向,他加入了一个名为Safeguarded AI(受保护的人工智能)的项目,致力于通过科学的方法降低AI系统的风险。
Yoshua Bengio的新角色
Yoshua Bengio,作为深度学习领域的领军人物,加入Safeguarded AI项目并担任科学总监,标志着AI安全领域的一个重要进展。该项目由英国高级研究与发明局(ARIA)支持,旨在构建一个能够理解和降低其他AI Agent风险的AI系统,主打量化安全保障。
Safeguarded AI项目概述
Safeguarded AI项目被划分为三个技术领域,每个领域都有特定的目标和预算:
- 支架(Scaffolding):构建一个可扩展、可互操作的语言和平台,用于维护现实世界模型/规范并检查证明文件。
- 机器学习(Machine Learning):使用前沿AI帮助领域专家构建一流的复杂现实世界动力学的数学模型,并利用前沿AI训练自主系统。
- 应用(Applications):在关键的网络-物理操作环境中部署一个由“把关AI”保护的自主AI系统,通过量化的安全保障释放重要的经济价值。
AI安全的关键问题
AI安全的核心问题包括但不限于:
- 自主复制或改进:防止AI系统在未经人类明确批准的情况下复制或改进自身。
- 权力寻求:限制AI系统不当地增加其权力和影响力的能力。
- 协助不良行为者:确保AI系统不会提升使用者的能力,以达到设计大规模杀伤性武器或执行网络攻击的水平。
- 欺骗:避免AI系统误导其设计者或监管者,僭越安全红线。
国际合作与共识
在AI安全领域,国际合作至关重要。最近在颐和园召开的「北京AI国际安全对话」上,Yoshua Bengio和其他专家共同签署了《北京AI安全国际共识》,强调了AI风险红线,并提出了确保这些红线不被僭越的具体路线。
技术发展与挑战
AI安全技术的发展面临着多方面的挑战。例如,视觉字幕恢复(VCR)任务揭示了现有视觉语言模型在处理嵌入文本和视觉元素时的局限性。这一任务要求模型在视觉和文本信息之间进行精确的对齐,这是OCR和传统视觉问答(VQA)任务所不具备的。
结语
AI安全不仅是技术问题,更是社会问题。随着AI技术的不断进步,我们必须采取行动,确保这些技术的发展能够造福人类,而不是带来灾难。Yoshua Bengio及其团队在Safeguarded AI项目中的工作,以及国际社会的共同努力,都是朝着这一目标迈进的重要步伐。